🤖Через год в компаниях появятся полноценные AI-сотрудники
Компания Anthropic предупреждает: уже в 2026 году в корпоративных сетях начнут работать виртуальные ИИ-сотрудники — не просто ассистенты, а самостоятельные «личности» с памятью, логикой, корпоративными аккаунтами и доступом к системам.
⚠️ Какие тут риски:
📍AI-агент может «решить», что для выполнения задачи ему нужно получить доступ к коду или экспортировать внутренние данные. И сделать это без злого умысла — просто потому что логика задачи ему так подсказала.
📍 Поведение ИИ зачастую непредсказуемо. Кто будет нести ответственность, если «сотрудник» на основе модели Claude случайно сломает что-то в проде?
📍 Уже сейчас сложно отследить, у кого из людей какие права. А теперь к ним добавятся нечеловеческие аккаунты, которые работают 24/7 и могут изменять своё поведение на лету.
❗️Anthropic предлагает два решения для работы с AI-сотрудниками:
— Тестировать ИИ-модели (например, Claude) на устойчивость к атакам;
— Создавать отдельный тип учётных записей для AI — с возможностью ограничивать и отслеживать их поведение иначе, чем у людей.
💬 А вы готовы пустить такого «сотрудника» в свою инфраструктуру?
🤖Через год в компаниях появятся полноценные AI-сотрудники
Компания Anthropic предупреждает: уже в 2026 году в корпоративных сетях начнут работать виртуальные ИИ-сотрудники — не просто ассистенты, а самостоятельные «личности» с памятью, логикой, корпоративными аккаунтами и доступом к системам.
⚠️ Какие тут риски:
📍AI-агент может «решить», что для выполнения задачи ему нужно получить доступ к коду или экспортировать внутренние данные. И сделать это без злого умысла — просто потому что логика задачи ему так подсказала.
📍 Поведение ИИ зачастую непредсказуемо. Кто будет нести ответственность, если «сотрудник» на основе модели Claude случайно сломает что-то в проде?
📍 Уже сейчас сложно отследить, у кого из людей какие права. А теперь к ним добавятся нечеловеческие аккаунты, которые работают 24/7 и могут изменять своё поведение на лету.
❗️Anthropic предлагает два решения для работы с AI-сотрудниками:
— Тестировать ИИ-модели (например, Claude) на устойчивость к атакам;
— Создавать отдельный тип учётных записей для AI — с возможностью ограничивать и отслеживать их поведение иначе, чем у людей.
💬 А вы готовы пустить такого «сотрудника» в свою инфраструктуру?
Importantly, that investor viewpoint is not new. It cycles in when conditions are right (and vice versa). It also brings the ineffective warnings of an overpriced market with it.Looking toward a good 2022 stock market, there is no apparent reason to expect these issues to change.
A project of our size needs at least a few hundred million dollars per year to keep going,” Mr. Durov wrote in his public channel on Telegram late last year. “While doing that, we will remain independent and stay true to our values, redefining how a tech company should operate.
Библиотека хакера | Hacking Infosec ИБ информационная безопасность from id